अभी हाल ही में साउथ सनसनी रश्मिका मंदाना के एक वीडियो को Deepfake यानि उसमें हेरफरे कर दिखाये जाने के बाद मचा बवाल थमा नहीं था कि काजोल के ऐसे ही एक Deepfake वीडियो ने हंगामा मचाया। केंद्र सरकार तो पहले ही हरकत में आ गई थी लेकिन अब तो प्रधानमंत्री नरेंद्र मोदी ने भी सार्वजनिक मंच से ये कह दिया कि Deepfake बहुत बड़ी चुनौती है और लोगों को AI के साथ Deepfake के बारे में भी शिक्षित करने की जरूरत है।

अभी कुछ दिनों पहले की ही बात है जब रश्मिका मंदाना का एक वीडियो आया जिसमें वो एक लिफ्ट जा रही थी। इस वीडियो में उनका लिफ्ट में जाते वक्त जिस तरह के हावभाव व पहनावा था उसके वायरल होने के कारण इसे सोशल मीडिया के एक प्लेटफॉर्म पर तो 2.4 मिलियन से अधिक बार देखा गया। लेकिन वह डीपफेक वीडियो था । वह रश्मिका नहीं ब्रिटीश इंडियन लडकी थी।
अफसोस की बात है कि यह कोई अकेली घटना नहीं है, क्योंकि हाल के वर्षों में विभिन्न क्षेत्रों की कई हस्तियां इसी तरह के फर्जी वीडियो का शिकार बनी हैं। कुछ दिनों पहले ही काजोल का एडिटेड वीडियो सामने आया जिसे इंफ्लूएंसर रोसी ब्रीन के वीडियो पर डीपफेक किया गया था। डीपफेक टेक्नोलॉजी की मदद से रोसी के चेहरे को काजोल के चेहरे से बदल दिया गया और दिखाया गया कि काजोल कैमरे के सामने कपड़े बदल रही हैं। ऐसा ही कुछ कटरीना कैफ के एक वीडियो के साथ भी किया गया था। एक वीडियो में तो पीएम को महिलाओं के साथ गरबा करते हुए डीपफेक किया गया।
लगातार बढ़ती घटनाओं से यह ययबहस भी छिड़ गई है कि इस तरह के वीडियो बनाने वालों के साथ किस तरह की कार्रवाई की जानी चाहिये। सरकार इसको लेकर बहुत गंभीर हो गई है। लोग इस तकनीक से बेहद डरे हुए हैं कि न जाने कब उनका कोई वीडियो Deepfake तकनीक के जरिये सोशल मीडिया पर वायरल कर दिया जाय।
Deepfake तकनीक एआई के लगातार विकसित हो रहे क्षेत्र के निगेटिव पहलुओं में से एक है। यह तकनीक साइबर अपराधियों को न केवल किसी और की नकल करने के लिए अपनी आवाज बदलने में सक्षम बनाती है, बल्कि उन्हें वास्तविक दिखाने के लिए वीडियो में हेरफेर भी कर देती है। Deepfake एक प्रकार का सिंथेटिक मीडिया है जिसमें एआई का उपयोग करके मौजूदा इमेज या वीडियो में एक व्यक्ति को किसी और की इमेज से बदल दिया जाता है। डीपफेक धोखा देने की उच्च क्षमता वाले दृश्य और ऑडियो कंटेंट में हेरफेर करने या उत्पन्न करने के लिए मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस जैसी शक्तिशाली तकनीकों का लाभ उठाता है।
डीपफेक की पहचान अक्सर अप्राकृतिक चेहरे के भावों या हरकतों से की जा सकती है, जैसे बहुत बार या पर्याप्त रूप से पलकें झपकाना या बहुत सख्त या झटकेदार हरकतें। आंखें इस बात का अच्छा संकेतक हैं कि कोई वीडियो असली है या नकली। डीपफेक में अक्सर धुंधली या फोकसहीन आंखें होती हैं, या ऐसी आंखें जो व्यक्ति के सिर की गतिविधियों से मेल नहीं खातीं।
पिछले दिनों 'डीपफेक' वीडियो के लगातार बढ़ रहे प्रकोप के बाद केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा था कि गलत सूचनाओं के इन खतरनाक और हानिकारक तरीकों से सोशल मीडिया के प्लेटफार्मों को सख्ती से निपटने की जरूरत है। यह प्लेटफ़ॉर्म के लिए एक कानूनी दायित्व है: सुनिश्चित करें कि किसी भी उपयोगकर्ता द्वारा कोई गलत सूचना पोस्ट न की जाए और यह सुनिश्चित करें कि जब किसी उपयोगकर्ता या सरकार द्वारा रिपोर्ट की जाए, तो गलत सूचना को 36 घंटों में हटा दिया जाए। यदि प्लेटफ़ॉर्म इसका अनुपालन नहीं करते हैं, तो नियम 7 लागू होगा और आईपीसी के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा प्लेटफ़ॉर्म को अदालत में ले जाया जा सकता है।

अभी कुछ दिनों पहले की ही बात है जब रश्मिका मंदाना का एक वीडियो आया जिसमें वो एक लिफ्ट जा रही थी। इस वीडियो में उनका लिफ्ट में जाते वक्त जिस तरह के हावभाव व पहनावा था उसके वायरल होने के कारण इसे सोशल मीडिया के एक प्लेटफॉर्म पर तो 2.4 मिलियन से अधिक बार देखा गया। लेकिन वह डीपफेक वीडियो था । वह रश्मिका नहीं ब्रिटीश इंडियन लडकी थी।
क्या हुआ था काजोल के साथ
अफसोस की बात है कि यह कोई अकेली घटना नहीं है, क्योंकि हाल के वर्षों में विभिन्न क्षेत्रों की कई हस्तियां इसी तरह के फर्जी वीडियो का शिकार बनी हैं। कुछ दिनों पहले ही काजोल का एडिटेड वीडियो सामने आया जिसे इंफ्लूएंसर रोसी ब्रीन के वीडियो पर डीपफेक किया गया था। डीपफेक टेक्नोलॉजी की मदद से रोसी के चेहरे को काजोल के चेहरे से बदल दिया गया और दिखाया गया कि काजोल कैमरे के सामने कपड़े बदल रही हैं। ऐसा ही कुछ कटरीना कैफ के एक वीडियो के साथ भी किया गया था। एक वीडियो में तो पीएम को महिलाओं के साथ गरबा करते हुए डीपफेक किया गया।
लोगों को डरा रहा है Deepfake
लगातार बढ़ती घटनाओं से यह ययबहस भी छिड़ गई है कि इस तरह के वीडियो बनाने वालों के साथ किस तरह की कार्रवाई की जानी चाहिये। सरकार इसको लेकर बहुत गंभीर हो गई है। लोग इस तकनीक से बेहद डरे हुए हैं कि न जाने कब उनका कोई वीडियो Deepfake तकनीक के जरिये सोशल मीडिया पर वायरल कर दिया जाय।
Deepfake है क्या
Deepfake तकनीक एआई के लगातार विकसित हो रहे क्षेत्र के निगेटिव पहलुओं में से एक है। यह तकनीक साइबर अपराधियों को न केवल किसी और की नकल करने के लिए अपनी आवाज बदलने में सक्षम बनाती है, बल्कि उन्हें वास्तविक दिखाने के लिए वीडियो में हेरफेर भी कर देती है। Deepfake एक प्रकार का सिंथेटिक मीडिया है जिसमें एआई का उपयोग करके मौजूदा इमेज या वीडियो में एक व्यक्ति को किसी और की इमेज से बदल दिया जाता है। डीपफेक धोखा देने की उच्च क्षमता वाले दृश्य और ऑडियो कंटेंट में हेरफेर करने या उत्पन्न करने के लिए मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस जैसी शक्तिशाली तकनीकों का लाभ उठाता है।
डीपफेक की पहचान अक्सर अप्राकृतिक चेहरे के भावों या हरकतों से की जा सकती है, जैसे बहुत बार या पर्याप्त रूप से पलकें झपकाना या बहुत सख्त या झटकेदार हरकतें। आंखें इस बात का अच्छा संकेतक हैं कि कोई वीडियो असली है या नकली। डीपफेक में अक्सर धुंधली या फोकसहीन आंखें होती हैं, या ऐसी आंखें जो व्यक्ति के सिर की गतिविधियों से मेल नहीं खातीं।
कड़ी कार्रवाई हो
पिछले दिनों 'डीपफेक' वीडियो के लगातार बढ़ रहे प्रकोप के बाद केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा था कि गलत सूचनाओं के इन खतरनाक और हानिकारक तरीकों से सोशल मीडिया के प्लेटफार्मों को सख्ती से निपटने की जरूरत है। यह प्लेटफ़ॉर्म के लिए एक कानूनी दायित्व है: सुनिश्चित करें कि किसी भी उपयोगकर्ता द्वारा कोई गलत सूचना पोस्ट न की जाए और यह सुनिश्चित करें कि जब किसी उपयोगकर्ता या सरकार द्वारा रिपोर्ट की जाए, तो गलत सूचना को 36 घंटों में हटा दिया जाए। यदि प्लेटफ़ॉर्म इसका अनुपालन नहीं करते हैं, तो नियम 7 लागू होगा और आईपीसी के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा प्लेटफ़ॉर्म को अदालत में ले जाया जा सकता है।
0 टिप्पणियाँ